Inteligência Artificial — Texto 21. Onde está o limite? É um limite absurdo: rumo a um quadro para utilizações aceitáveis de IA em avaliações (1/3). Por Thomas Corbin, Philip Dawson, Kelli Nicola-Richmond e Helen Partridge

Nota de editor: dada a extensão do presente texto, o mesmo é publicado em 3 partes, hoje a primeira.

 

Seleção e tradução de Júlio Marques Mota

8 min de leitura

Texto 21 – – Onde está o limite? É um limite absurdo: rumo a um quadro para utilizações aceitáveis de IA em avaliações (1/3)

Por Thomas Corbin, Philip Dawson, Kelli Nicola-Richmond e Helen Partridge

Publicado por   em 24 de Janeiro de 2025 (original aqui)

 

 

RESUMO:

À medida que o ensino superior lida com a garantia da validade das avaliações numa era cada vez mais ocupada por inteligências artificiais, as instituições e educadores estão a trabalhar para estabelecer limites apropriados para o uso da IA. No entanto, pouco se sabe sobre como é que estudantes e professores conceptualizam e vivem esses limites na prática. Este estudo investiga como estudantes e professores navegam pela linha entre o uso aceitável e inaceitável da IA em avaliações, baseando-se numa análise temática de entrevistas qualitativas com 19 estudantes e 12 membros da equipa de uma grande universidade australiana, orientada pela teoria das fronteiras sociais. A metáfora do título, “traçar um limite”, surgiu organicamente tanto entre estudantes como entre professores durante as entrevistas, revelando lutas contínuas para entender e articular o que é considerado apropriado. Descobrimos que os estudantes frequentemente constroem os seus próprios marcos éticos individuais, únicos e muitas vezes complexos, para o uso da IA. Já os professores relatam uma carga emocional significativa e incerteza profissional ao tentarem compreender e comunicar aos estudantes o que é apropriado.  A nossa análise sugere que as políticas de avaliação relacionadas com a IA devem ir além de simples proibições ou permissões e começar a abordar três dimensões críticas: a viabilidade da aplicação, a preservação da aprendizagem autêntica e o bem-estar emocional de professores e estudantes.

 

Introdução

As ferramentas de Inteligência Artificial Generativa (IA Gen), como o ChatGPT, permitem que estudantes produzam resultados que podem não refletir genuinamente as suas próprias competências, compreensão, conhecimento e capacidades de passagem do ensino abstrato a práticas concretas (Dawson et al., 2024). Consequentemente, a questão de como incorporar ou limitar efetivamente o uso da IA em avaliações tornou-se uma preocupação premente (Kumar et al., 2024). Têm surgido diversos enquadramentos para ajudar os educadores a adaptarem-se a essa nova realidade povoada pela IA — enquadramentos que visam articular os limites entre usos aceitáveis e inaceitáveis da tecnologia (ver, por exemplo, Perkins et al., 2024; Davis, 2024). No entanto, apesar desses esforços, pouco se sabe sobre como educadores e estudantes percebem atualmente esses limites, ou como essas perceções moldam as suas experiências e tomadas de decisão. Sem ter esta perspetiva em mente, é difícil saber o quão apropriado qualquer limite realmente é para as realidades vividas por professores e estudantes.

Compreender os limites aceitáveis no contexto da inteligência artificial é um desafio — talvez muito maior do que com tecnologias anteriores — devido à forma como essa tecnologia se integra profundamente nas práticas académicas centrais. Enquanto os desafios anteriores na validade da avaliação, como fábricas de produção de textos ou serviços de trapaça contratada, envolviam uma substituição clara do trabalho do estudante, a IA generativa (GenAI) esbate a linha entre assistência aceitável e utilização inadequada em todas as etapas do processo avaliativo — desde a conceção à edição final (Luo 2024; Corbin et al. 2024). À medida que estudantes e professores tentam navegar por esses limites difusos, eles enfrentam questões que as análises existentes têm dificuldade em responder. Quando é que a edição assistida com auxílio de IA se torna conteúdo de autor feito pela IA? Em que ponto o uso da IA para gerar ideias se transforma em pensamento externalizado? Tais perguntas revelam um desafio que exige muita  atenção.

Neste estudo, conversámos com 12 educadores e 19 estudantes sobre as suas opiniões a respeito da IA Generativa (GenAI) e a avaliação. Sem serem solicitados, muitos participantes levantaram a questão: “onde está o limite” entre o uso aceitável e inaceitável da IA, frequentemente utilizando explicitamente essa metáfora. As respostas revelaram uma notável falta de clareza e uma complexidade significativa nas suas perceções, em que  tanto estudantes como  docentes expressavam a incerteza sobre como lidar com essa ambiguidade na prática. Essa incerteza não é apenas uma preocupação abstrata; para muitos, gerou um sentimento profundo de desconforto, chegando até ao trauma, ao tentarem conciliar os seus valores e prioridades educacionais com as realidades da tecnologia de IA.

Estes resultados sugerem uma necessidade urgente de que as instituições promovam conversas significativas sobre o uso da IA na avaliação e forneçam orientações claras tanto para avaliadores como para os estudantes. Este artigo atende a essa necessidade ao explorar como estudantes e educadores conceptualizam os limites do uso da IA em avaliações e as implicações dessa ambiguidade para o ensino e a aprendizagem.

Para alcançar os objetivos deste artigo, primeiro delineámos a nossa abordagem metodológica. Essa abordagem baseia-se no trabalho de fronteiras e na teoria das fronteiras sociais para entender como comunidades educacionais constroem e mantêm distinções entre práticas legítimas e ilegítimas. Em seguida, apresentamos os nossos resultados, examinando como quer estudantes quer professores tentam traçar limites viáveis para o uso da IA por meio de várias estratégias, incluindo buscar esclarecimentos em tecnologias análogas, desenvolver enquadramentos individuais e negociar questões relacionadas com a integridade académica. A nossa discussão analisa como é que  esses esforços de delimitação refletem tensões mais profundas em relação à maneira como o ensino superior mantém a  sua autoridade e legitimidade num  mundo conectado com a IA. Concluímos propondo um novo Modelo Dinâmico de Fronteiras Educacionais, que vai além de simples proibições e permissões para lidar com as complexas realidades do uso de IA no ensino superior contemporâneo.

 

Metodologia

Este estudo adotou uma abordagem qualitativa por meio de entrevistas para examinar como estudantes e educadores veem o uso de IA Generativa (GenAI) em avaliações. Foi escolhida uma conceção qualitativa pela sua capacidade de capturar perceções subtis, dependentes do contexto e profundamente pessoais, que seriam difíceis de revelar apenas por meio de métodos quantitativos.

Os participantes foram compostos por 19 estudantes e 12 membros do corpo docente de uma grande universidade australiana, representando diversas disciplinas e níveis de estudo. Os participantes foram recrutados por meio de uma abordagem de amostragem intencional, garantindo uma diversidade de perspetivas, com foco principal em capturar as experiências e pontos de vista distintos de estudantes e professores. Considerando os seus diferentes papéis na avaliação — os estudantes como recetores e os docentes como responsáveis pelo design e pela avaliação —, antecipámos que as suas perspetivas sobre o papel da IA na avaliação variariam significativamente. Também procurámos a  variação entre as disciplinas e, embora não tenhamos feito uma triagem prévia para garantir uma variedade de opiniões sobre a tecnologia de IA, incluímos declarações nas nossos materiais de recrutamento esclarecendo que participantes com qualquer nível de experiência e familiaridade com a tecnologia seriam bem-vindos.

Um protocolo de entrevista semiestruturada foi desenvolvido para este estudo, a fim de garantir consistência, ao mesmo tempo que permitia aos participantes a flexibilidade para responderem sobre as suas experiências. Não existiam protocolos previamente disponíveis que abordassem diretamente o foco da nossa pesquisa — o uso da IA na avaliação, tanto do ponto de vista de estudantes como do dos docentes, incluindo aspetos como equidade, desenvolvimento de competências  e uso aceitável da IA. As perguntas orientadoras foram elaboradas com base em discussões preliminares dentro da equipa de pesquisa, garantindo alinhamento com a estrutura conceptual mais ampla da IA como um objeto de fronteira na educação. O protocolo foi estruturado para manter coerência entre as entrevistas, enquanto a abordagem semiestruturada permitiu questionamentos adicionais para explorar temas emergentes. O protocolo de entrevista mostrou-se eficaz em suscitar respostas diversas e reflexivas. Os participantes forneceram descrições ricas das suas preocupações, experiências e expectativas em relação ao uso da IA na avaliação, e temas-chave — como ansiedades relacionadas com a equidade, o papel percebido da IA na aprendizagem e a incerteza sobre políticas institucionais — emergiram de forma consistente ao longo das entrevistas.

As entrevistas foram conduzidas via Zoom no final de 2023 e início de 2024. Cada entrevista teve uma duração entre 30 e 60 minutos. Todas as entrevistas foram gravadas em áudio com o consentimento dos participantes e transcritas literalmente. Para promover a confidencialidade, foram removidos detalhes identificáveis das transcrições e os participantes receberam pseudónimos. Foi obtida a aprovação ética para o estudo (HAE-23-057) e todos os participantes forneceram consentimento informado.

Os dados foram analisados usando a análise temática indutiva, seguindo as diretrizes de Braun e Clarke (2006). Inicialmente, o conjunto completo de dados foi codificado de forma ampla para nos sensibilizar às experiências de funcionários e estudantes. Durante essa fase, a metáfora de “onde está o limite” foi frequentemente observada, com os participantes a expressarem incerteza e preocupação sobre os limites do uso da IA. Com base nesse método, a reanálise envolveu codificação iterativa para desenvolver subtemas relacionados com as perceções de uso apropriado e inadequado da IA. A análise teve foco semântico, realçando a linguagem explícita e as metáforas que os participantes usaram para articular as suas experiências. Os temas finais foram revistos de forma colaborativa pela equipa de pesquisa para garantir consistência e credibilidade.

A nossa análise foi fundamentada no conceito de trabalho de fronteira (Gieryn 1983, 1999) e na teoria das fronteiras sociais (Lamont e Molnár 2002), que oferece um arcabouço para entender como grupos constroem, mantêm e negoceiam fronteiras simbólicas, especialmente durante períodos de mudança social ou tecnológica. Essa lente teórica foi escolhida após a nossa análise inicial dos dados revelar o uso persistente, por parte dos participantes, de metáforas de fronteira (particularmente “o limite”) ao discutirem o uso da IA. A teoria das fronteiras sociais ajudou a esclarecer como os participantes se empenharam em construir e manter distinções entre práticas académicas legítimas e ilegítimas diante da rutura tecnológica. Esse enquadramento teórico orientou as nossas fases analíticas posteriores, ajudando-nos a compreender o trabalho de fronteira dos participantes não apenas como uma construção individual de significado, mas como parte de processos mais amplos de manutenção da legitimidade educacional e da identidade profissional. A abordagem permitiu-nos examinar tanto as fronteiras explícitas que os participantes tentaram estabelecer em relação ao uso da IA quanto as hipóteses implícitas sobre a prática educacional que esses esforços de delimitação revelaram. Em vez de adotar uma postura puramente construtivista, a nossa análise reconheceu que, embora as fronteiras sejam socialmente construídas, elas têm consequências reais para a prática educacional e o bem-estar emocional — o que Lamont e Molnár (2002) chamam de relação entre fronteiras simbólicas e sociais. Essa orientação teórica informou o nosso processo de codificação, levando-nos a prestar atenção especial em como os participantes construíam, justificavam e enfrentavam as fronteiras em torno do uso da IA, ao mesmo tempo em que permanecíamos sensíveis às implicações práticas e emocionais dessas negociações de fronteira.

 

Resultados

Um desejo por ‘limites’

A metáfora de ‘traçar o limite’ surgiu de forma natural nas nossas entrevistas tanto com estudantes como com funcionários, aparecendo espontaneamente em mais da metade das entrevistas (51,6% no total, 11 de 19 entrevistas com estudantes e 5 de 12 com funcionários). Tanto professores como alunos utilizaram essa expressão explicitamente, assim como outras metáforas relacionadas, para expressar a sua incerteza em relação à GenAI: “Não existe um limite muito claro, como é que se pode lidar com o Chat GPT ou qualquer outra IA”, explicou um professor (A03). Outros afirmaram de forma semelhante: “Nós devemos ter de traçar o limite e de refletir sobre o sítio em que ele realmente se situa. (A01). A frustração gerada por isso ficou evidente: “Não faz absolutamente nenhum sentido. Onde é que está o limite? É um limite absurdo” (A02).

As respostas dos estudantes revelaram dificuldades parecidas em relação aos limites. “[GenAI] torna o limite esbatido” (P18), observou um aluno, enquanto outros descreveram encontrar uma “zona nebulosa” (P02) ou uma “área cinzenta” (P01) ao tentar decidir o que era apropriado. Como explicou um estudante, eles ficavam a jogar um “jogo de adivinhação” (P02) para determinar “as coisas que são inadequadas” (P17). Ao articular esses desafios, os estudantes usaram vários termos relacionados com ‘linhas’, nomeadamente “limites” (P01), “diretrizes” (P17) e “parâmetros” (P10). Dada essa incerteza sobre os limites, muitos estudantes enfatizaram a necessidade de orientações institucionais claras sobre o uso aceitável da IA nas suas avaliações. Um estudante, por exemplo, afirmou

“Eu acho que cada universidade ou cada professor deveria estar ciente de que a IA está aí, é de uso gratuito e, claro, os estudantes vão usá-la. Mas eu não diria que eles deveriam desencorajar isso, na verdade, eles deveriam explicar o quanto podemos usá-la, isso seria como estabelecer os limites.” (P10)

O impacto desta ambiguidade vai além da simples incerteza sobre as regras. Os estudantes descreveram ter que lidar com decisões complexas sobre a utilização da IA, especialmente ao tentar entender e acomodar diferentes perspetivas dos professores:

De certa maneira é como que tenhamos de adivinhar qual a perspetiva do teu professor sobre a IA, e então decidir o quanto vai usá-la ou não, porque se for alguém bastante contra a IA, não vale a pena utilizá-la, porque então pode-se acabar por perder nas notas ou… talvez se consiga fazer trapaça porque eles são ignorantes. (P02)

Os estudantes frequentemente faziam comentários semelhantes ao acima descrito: ‘precisamos ter alguns parâmetros sobre o que é considerado trapaça e o que é considerado aceitável’ (P05). Esta necessidade foi expressa por alguns estudantes em termos da ampla utilização da prática: “Acho que é responsabilidade da universidade abordar esta questão, porque a maioria dos estudantes vai estar a utilizá-la , mas talvez a utliozá.la de forma inadequada e sem o saber”. (P14)

Os professores expressaram preocupações semelhantes, muitas vezes no contexto da sua capacidade de fornecer orientações claras aos estudantes. Como explicou um dos docentes:

Penso que, uma vez que a universidade tenha uma posição clara — e talvez já a tenha e eu simplesmente não a conheça —, uma vez que essa posição seja realmente clara, acho que é muito importante que todos entendam o que ela significa. Que os universitários entendam exatamente como proceder face a uma escalada, o que pode estar na causa de uma escalada e que estejamos confiantes, digamos, em comunicar isso aos estudantes. (A07)

O maior desafio que observámos para os professores ao comunicar aos alunos o que é aceitável foi que eles próprios não sabiam, “não temos certeza do que é OK e do que não é OK”. (A07)

 

(continua)


Os autores

 Thomas Corbin é investigador no centro de Investigação em Avaliação e Aprendizagem Digital (CRADLE) na Universidade de Deakin (Austrália). A sua investigação concentra-se em GenAI, avaliação e filosofia da educação.

 Phillip Dawson é professor e codiretor do centro de Investigação em Avaliação e Aprendizagem Digital (CRADLE) na Universidade de Deakin (Austrália). A sua investigação concentra-se em avaliação, feedback e trapaça.

 Kelli Nicola-Richmond é professora associada e Diretora Associada da Escola, Ensino e aprendizagem da Escola de Saúde e Desenvolvimento Social na Universidade de Deakin (Austrália). A sua investigação centra-se no julgamento avaliativo, nos exames e trapaça, longo COVID e mau desempenho do aluno e falha no estágio clínico.

 Helen Partridge é professora e pró-Vice-Reitora de ensino e aprendizagem na Universidade de Deakin (Austrália). A sua investigação centra-se na interacção entre Informação, Tecnologia e aprendizagem.

 

Leave a Reply